EmoDescriptor: A hybrid feature for emotional classification in dance movements
Similar to language and music, dance performances provide an effective way to express human emotions. With the abundance of the motion capture data, content-based motion retrieval and classification have been fiercely investigated. Although researchers attempt to interpret body language in terms of human emotions, the progress is limited by the scarce 3D motion database annotated with emotion labels. This article proposes a hybrid feature for emotional classification in dance performances. The hybrid feature is composed of an explicit feature and a deep feature. The explicit feature is calculated based on the Laban movement analysis, which considers the body, effort, shape, and space properties. The deep feature is obtained from latent representation through a 1D convolutional autoencoder. Eventually, we present an elaborate feature fusion network to attain the hybrid feature that is almost linearly separable. The abundant experiments demonstrate that our hybrid feature is superior to the separate features for the emotional classification in dance performances.
ダンスは、言語や音楽と同様に、人間の感情を表現する有効な手段である。モーションキャプチャデータが豊富にあることから、コンテンツに基づく動作検索や分類が盛んに研究されています。しかし、感情ラベルが付与された3次元モーションデータベースが少ないため、研究者の間では、ボディランゲージを人間の感情の観点から解釈する試みがなされている。本論文では、ダンスパフォーマンスにおける感情分類のためのハイブリッド特徴を提案する。このハイブリッド特徴は、明示的特徴と深層特徴から構成される。明示的特徴量は、身体、努力、形状、空間特性を考慮したラバン運動分析に基づいて算出される。深層特徴は、1次元畳み込みオートエンコーダにより潜在表現から得られる。最終的に、ほぼ線形分離可能なハイブリッド特徴量を得るために、精巧な特徴量融合ネットワークを提示する。豊富な実験により、我々のハイブリッド特徴が、ダンスパフォーマンスの感情分類において、分離可能な特徴よりも優れていることを実証する。